Перевод: со всех языков на английский

с английского на все языки

дополнительные модули

  • 1 дополнительные модули

    Русско-английский словарь нормативно-технической терминологии > дополнительные модули

  • 2 дополнительные модули

    Programming: plug-ins

    Универсальный русско-английский словарь > дополнительные модули

  • 3 дополнительные модули устройств (Device Plug-ins)

    Abbreviation: DPI (Device Plug-ins) (сокращение)

    Универсальный русско-английский словарь > дополнительные модули устройств (Device Plug-ins)

  • 4 дополнительные модули устройств

    Abbreviation: (Device Plug-ins) DPI (Device Plug-ins) (сокращение)

    Универсальный русско-английский словарь > дополнительные модули устройств

  • 5 колокейшн

    1. colocation
    2. collocation
    3. co-location

     

    колокейшн
    размещение сервера
    Услуга по размещению вашего серверного оборудования на телекоммуникационном узле, имеющем высокоскростное подключение к сети Интернет, обеспечению технических условий функционирования оборудования, таких как стабильное электропитание, оптимальная температура и влажность, круглосуточный мониторинг состояния.
    [ http://your-hosting.ru/terms/c/colloc/]

    размещение физических серверов
    со-размещение

    Размещение оборудования Заказчика на площадях Провайдера, а также предоставление последним сервисных услуг по инсталляции, настройке, управлению и обеспечению безопасности установленного оборудования на базе фиксированной арендной платы.
    [ http://www.outsourcing.ru/content/glossary/A/page-1.asp]

    совместное размещение
    Размещение оборудования электросвязи принадлежащего разным компаниям-операторам в одном помещении или здании (МСЭ-Т K.58).
    [ http://www.iks-media.ru/glossary/index.html?glossid=2400324]

    Что такое "колокейшн"? И чем отличаются друг от друга colocation, co-location и collocation?

    Вообще, все эти слова означают одно — размещение сервера клиента на технической площадке провайдера. Техническая площадка — это специализированное помещение с гарантированным электропитанием, поддержанием достаточно низкого уровня температуры, с охраной, системой пожаротушения и так далее. По сути, это узел связи. Разница в написании слова «colocation» возникла очень давно, причем по вполне естественным причинам. В оригинале, по-английски, верны все три написания этого слова. Поэтому все пишут его так, как привыкли. Вот и все.

    Чем же отличается колокейшн от хостинга?


    Colocation — это размещение своего оборудования (сервера) на технической площадке провайдера. Это действительно похоже на хостинг, когда вы размещаете свой веб-ресурс у провайдера. Однако виртуальный хостинг — это когда на провайдерской машине находятся сотни сайтов его клиентов, а colocation — когда клиент устанавливает своей сервер у провайдера и использует все его ресурсы только для размещения своего собственного сайта.

    Как правило, для colocation применяются специализированные серверы, которые собираются в промышленных корпусах шириной 19 дюймов, предназначенных для монтажа в специальную стойку. Еще одна характеристика габаритов корпуса — высота. Она измеряется в юнитах (unit). Это порядка 45 миллиметров. Сервера бывают размером в 1 юнит (1U), 2 юнита (2U), 4 юнита (4U) и так далее. Как правило, сейчас клиенты размещают серверы в 1U-корпусах, так как с пользователей взимается плата за размер сервера пропорционально количеству юнитов. Например, 1U стоит одно количество денег, а 2U — в два раза большее. На деле, в 1U корпусе можно собрать как очень мощный двухпроцессорный сервер с двумя-тремя дисками, так и "слабенький" недорогой сервер, которого, тем не менее, хватит для размещения большинства проектов.

    Серверы для colocation отличаются от обычных компьютеров, кроме необычного корпуса, материнской платой. Существуют специальные серверные материнские платы, которые содержат прямо на себе весь необходимый набор комплектующих — сетевые карты, видеокарты, контроллеры жестких дисков SCSI/ATA/SATA и так далее. Кроме того, к производству таких материнских плат предъявляются повышенные требования по качеству.

    Вообще, сервер можно как собрать "руками" самостоятельно, так и купить готовый. Однако нужно помнить о том, что сервер отличается от обычного компьютера тем, что он постоянно работает, причем с серьезной нагрузкой. Работает без перерывов годами. Соответственно, нужно думать о необходимом количестве специальных вентиляторов, продумать прохождение воздушных потоков внутри сервера и так далее. Все эти моменты уже учтены в готовых серверах. Это очень важно.

    Как правило, для colocation применяются специализированные серверы, которые собираются в специальных промышленных корпусах шириной 19 дюймов, и предназначены такие корпуса для монтажа в специальную стойку

    В какой ситуации для клиента имеет смысл переходить на колокейшн?


    Основных причин для перехода с виртуального хостинга на colocation две:

    1. Ваш веб-проект настолько вырос, что потребляет столько ресурсов, сколько ему не могут предоставить на хостинговой машине провайдера. Мы помним, что на каждой хостинговой машине, кроме вас, "живет" еще несколько сотен серверов. Если проект большой, посещаемый, требует много вычислительных ресурсов, рано или поздно он начинает "тормозить" на "общем" хостинге. Да, возможно, что хостинг-провайдер просто поместил на физический сервер слишком много виртуальных веб-серверов, но зачастую это все же не так. Как только сервер начинает "тормозить" на хостинге, нужно заняться оптимизацией скриптов и запросов к базе данных. Если это не помогает, то нужно задумываться о colocation, изучать эту возможность, не пора ли действительно брать отдельный сервер.

    2. Проекту нужно много дискового пространства. Сейчас на хостинге предлагают 500 мегабайт места или даже 1 Гб. Есть провайдеры, которые предлагают и больше. Однако разместить хотя бы 5 Гб на виртуальном хостинге уже просто нереально. Кстати, как правило, проекты, которым нужно много места, сталкиваются и с проблемами производительности, ведь эти данные не просто лежат на диске — с ними работают посетители. Много данных, надо полагать, предполагает наличие большого количества посещений. Ведь эти данные размещаются, чтобы люди их смотрели, а не просто так. На colocation же в вашем распоряжении окажется весь жесткий диск сервера или даже несколько дисков — сколько пожелаете и купите. Диски емкостью 100-150 Гб, выполненные по технологии SATA, стоят чуть более ста долларов. Более быстрые SCSI-диски подороже. Все это делает colocation очевидной возможностью для развития проектов, которые требуют много места. В конце концов, аренда многих гигабайт места на сервере у хостинг-провайдера по затратам делает услугу виртуального хостинга очень похожей на colocation или хотя бы сравнимой.

    Насколько колокейшн дороже обычного хостинга?


    Как правило, за пользование виртуальным хостингом взимается некая фиксированная плата, которая составляет несколько долларов в месяц. Кроме того, пользователь может приобрести дополнительные услуги. Например, больше дискового пространства, больше почтовых ящиков и так далее. Структура платежей в пользу хостинг-провайдера проста и понятна.

    В случае с colocation все несколько сложнее. Пользователи colocation, во-первых, должны приобрести сервер. Как уже говорилось, цены на серверы начинаются от $800-1000. То есть цена "входного билета" значительно выше, чем в случае с виртуальным хостингом. Однако есть варианты — можно не покупать сервер, а недорого взять его в аренду у провайдера — об этом ниже.

    Также пользователи colocation платят за размещение сервера. Как правило, цена этой услуги должна составлять порядка $50 — такова рыночная цена на сегодняшний день, середину лета 2004 года. Стоимость размещения сервера плавно снижалась с годами. Так, пять лет назад размещение colocation сервера стоило не менее $200-300 в месяц. Тогда такая цена обуславливалась крайне скудным предложением и эксклюзивностью услуг, так как клиентов были единицы. Сейчас цены находятся на уровне себестоимости, и снижение цены до $20, скажем, маловероятно. Впрочем, возможны варианты, и время все расставит по местам.

    Пользователь colocation платит за трафик, который генерируется его сервером
    Также пользователь colocation платит за трафик, который генерируется его сервером. В данный момент ситуация на рынке такова, что многие провайдеры предлагают неограниченный трафик за фиксированную сумму, которая, как правило, включена в стоимость размещения оборудования, о которой писалось выше. Однако есть один момент — провайдерам выгодно, чтобы трафик, генерируемый клиентом, был российским. То есть предназначался для пользователей, которые находятся в России. Провайдеры просят, чтобы трафик, создаваемый сервером, был как минимум наполовину российским. Таково предложение компании.masterhost, например. На практике практически все пользователи легко укладываются в такое ограничение, и проблем тут нет.

    Если сравнивать стоимость размещения сайта на виртуальном хостинге и на colocation в цифрах, то хостинг для серьезного сайта в виртуальной среде стоит от $20 в месяц, а размещение собственного сервера — от $50 в месяц. Вполне сравнимые цифры, тем более что во втором случае ваш веб-сервер получает в десятки раз больше ресурсов. То есть colocation — это естественный путь развития для серьезных проектов.

    Какие особые возможности колокейшн предоставляет по сравнению с хостингом?

    Две главные возможности colocation — это несравнимо большее количество ресурсов (диска, памяти, процессорного времени) и гибкость настройки и конфигурации. На виртуальном хостинге ваш сайт находится на одной машине с еще несколькими сотнями похожих сайтов. Конечно, ресурсов вы получаете немного, но вполне достаточно для работы даже довольно серьезного ресурса. Однако, как только на сервер возникает повышенная нагрузка — например в часы пик или при резком увеличении количества посетителей по какой-то причине, — у пользователя возникают риски. Например, риск нехватки каких-то ресурсов. Риски, в общем, небольшие, но если ваш сайт — это, например, интернет-магазин, то каждая ошибка на сайте — это несделанный посетителем заказ. Стоит подумать, нужно ли рисковать в том случае, если за сравнимые деньги можно получить в пользование целый отдельный сервер.

    Гибкость. Очень часто программистам, которые работают над сайтом, нужно поставить какие-нибудь дополнительные модули или использовать нестандартное программное обеспечение. Не всегда есть возможность установить на сервер нужное ПО и настроить его так, как нужно. В случае же с colocation этой проблемы не существует в принципе, так как администратор сервера может устанавливать что угодно и настраивать ПО любым образом.

    Можно сказать, что виртуальный хостинг — это "детство" серьезных проектов, а colocation — их "зрелость". Переход на colocation — это естественный путь развития любого большого проекта, и таким веб-ресурсам однозначно нечего делать на виртуальном хостинге.

    Бывает ли колокейшн на собственных компьютерах клиентов, и есть ли в этом смысл? Как в этом случае эти компьютеры обслуживаются?

    Как правило, colocation — это именно установка собственного компьютера-сервера пользователя на площадку хостинг-провайдера. В этом случае клиент сам занимается администрированием сервера, его настройкой, а также принимает на себя риски, связанные с поломкой комплектующих. Это классический вариант. Однако в последнее время активно развивается направление аренды сервера у провайдера. Клиенту не нужно платить тысячу-полторы-две долларов за сервер. Можно его за небольшую плату арендовать у провайдера. Это интересный вариант для только запускающихся проектов, когда денег на покупку сервера еще нет. Впоследствии, как правило, можно выкупить сервер у провайдера или приобрести свой сервер независимо. Да, при аренде риски, связанные с поломкой сервера, берет на себя провайдер. То есть если провайдер сдает вам в аренду сервер, он отвечает за его работоспособность и за оперативную замену вышедших из строя комплектующих, если, не дай Бог, такое случится. Это интересный вариант, так как ехать в три ночи на другой конец города, чтобы поменять "полетевшую" память — не очень интересное занятие. А если пользователь живет в другом городе...

    Насколько часто сейчас используется колокейшн?

    Услуга многие годы развивалась. Пять лет назад клиентов colocation у провайдеров были единицы. Года три назад — десятки. Сейчас у серьезных провайдеров, занимающихся размещением серверов как отдельным бизнесом, уже сотни клиентов. Colocation используют интернет-магазины, сетевые СМИ, игровые порталы, баннерные сети, различные контент-проекты. Также многие компании выносят на colocation из своих офисов почтовые сервера и другие службы. Есть много вариантов использования colocation, и их становится все больше. Наблюдается четкая тенденция к "переезду" на colocation "выросших" из виртуального хостинга проектов, так как провайдеры предлагают не просто взять и поставить машину, а предоставляют полный комплекс услуг с администрированием клиентского сервера.

    Какие сложности возникают перед клиентом при использовании колокейшн?

    Главная проблема — необходимость наличия системного администратора, который установит и настроит операционную и хостинговую среду, а также будет потом заниматься поддержкой и администрированием системы. С одной стороны — да, это проблема. Но с другой — найти администратора несложно, и стоит это недорого. Нет необходимости, например, брать на работу "выделенного" человека. Вполне можно пользоваться и разовыми услугами по необходимости.

    Однако хостинг-провайдеры предлагают и свои собственные услуги по администрированию. Те же специалисты, которые занимаются администрированием хостинговых серверов провайдера, вполне могут заниматься и сервером клиента. Стоить это будет значительно дешевле, чем привлечение клиентом стороннего специалиста.

    Также есть проблема с "железом", которое потенциально может ломаться. Нужно брать сервер с серьезной гарантией или не покупать его, а брать в аренду у провайдера.

    Какие существуют виды оплаты при колокейшн?


    .masterhost предлагает клиентам colocation платить им за генерируемый исходящий трафик
    Те же самые, как и в случае с оплатой хостинга. По сути, система приема платежей одна и та же — как для клиентов хостинга, так и для colocation. Кстати, тут есть одна интересная возможность. Наша компания, например, предлагает клиентам colocation платить им за генерируемый исходящий трафик. То есть если у проекта много исходящего трафика, мы вполне готовы даже заплатить за него клиенту. Возможно, что и не очень много, однако это вполне позволяет снизить плату за colocation или же вообще избавиться от нее. Проекты с довольно большим трафиком могут даже заработать.

    В заключение хочу добавить несколько слов о неочевидных выгодах использования именно colocation, а не виртуального хостинга. Переходя на использование выделенного сервера для хостинга своих ресурсов, владелец сайта автоматически увеличивает посещаемость своего ресурса — просто потому что его сервер может просто физически принять и обслужить больше посетителей. Больше посетителей — это возможность показать больше рекламы, к примеру.

    Используя colocation, можно значительно наращивать ресурсы сервера. Например, если понадобилось дополнительное дисковое пространство, покупаете за $100 диск на 120 Гб, и проблема решена. Стало больше посетителей, и сервер не справляется с работой скриптов — меняем процессор на более мощный, и проблем тоже нет.

    [ http://hostinfo.ru/articles/358]

    Тематики

    Синонимы

    EN

    Русско-английский словарь нормативно-технической терминологии > колокейшн

  • 6 программируемый логический контроллер

    1. storage-programmable logic controller
    2. Programmable Logic Controller
    3. programmable controller
    4. PLC

     

    программируемый логический контроллер
    ПЛК
    -
    [Интент]

    контроллер
    Управляющее устройство, осуществляющее автоматическое управление посредством программной реализации алгоритмов управления.
    [Сборник рекомендуемых терминов. Выпуск 107. Теория управления.
     Академия наук СССР. Комитет научно-технической терминологии. 1984 г.]

    EN

    storage-programmable logic controller
    computer-aided control equipment or system whose logic sequence can be varied via a directly or remote-control connected programming device, for example a control panel, a host computer or a portable terminal
    [IEV ref 351-32-34]

    FR

    automate programmable à mémoire
    équipement ou système de commande assisté par ordinateur dont la séquence logique peut être modifiée directement ou par l'intermédiaire d'un dispositif de programmation relié à une télécommande, par exemple un panneau de commande, un ordinateur hôte ou un terminal de données portatif
    [IEV ref 351-32-34]

      См. также:
    - архитектура контроллера;
    - производительность контроллера;
    - время реакции контроллера;
    КЛАССИФИКАЦИЯ

      Основным показателем ПЛК является количество каналов ввода-вывода. По этому признаку ПЛК делятся на следующие группы: По расположению модулей ввода-вывода ПЛК бывают:
    • моноблочными - в которых устройство ввода-вывода не может быть удалено из контроллера или заменено на другое. Конструктивно контроллер представляет собой единое целое с устройствами ввода-вывода (например, одноплатный контроллер). Моноблочный контроллер может иметь, например, 16 каналов дискретного ввода и 8 каналов релейного вывода;
    • модульные - состоящие из общей корзины (шасси), в которой располагаются модуль центрального процессора и сменные модули ввода-вывода. Состав модулей выбирается пользователем в зависимости от решаемой задачи. Типовое количество слотов для сменных модулей - от 8 до 32;
    • распределенные (с удаленными модулями ввода-вывода) - в которых модули ввода-вывода выполнены в отдельных корпусах, соединяются с модулем контроллера по сети (обычно на основе интерфейса RS-485) и могут быть расположены на расстоянии до 1,2 км от процессорного модуля.
    Часто перечисленные конструктивные типы контроллеров комбинируются, например, моноблочный контроллер может иметь несколько съемных плат; моноблочный и модульный контроллеры могут быть дополнены удаленными модулями ввода-вывода, чтобы увеличить общее количество каналов.

    Многие контроллеры имеют набор сменных процессорных плат разной производительности. Это позволяет расширить круг потенциальных пользователей системы без изменения ее конструктива.

    По конструктивному исполнению и способу крепления контроллеры делятся на:
    По области применения контроллеры делятся на следующие типы:
    • универсальные общепромышленные;
    • для управления роботами;
    • для управления позиционированием и перемещением;
    • коммуникационные;
    • ПИД-контроллеры;
    • специализированные.

    По способу программирования контроллеры бывают:
    • программируемые с лицевой панели контроллера;
    • программируемые переносным программатором;
    • программируемые с помощью дисплея, мыши и клавиатуры;
    • программируемые с помощью персонального компьютера.

    Контроллеры могут программироваться на следующих языках:
    • на классических алгоритмических языках (C, С#, Visual Basic);
    • на языках МЭК 61131-3.

    Контроллеры могут содержать в своем составе модули ввода-вывода или не содержать их. Примерами контроллеров без модулей ввода-вывода являются коммуникационные контроллеры, которые выполняют функцию межсетевого шлюза, или контроллеры, получающие данные от контроллеров нижнего уровня иерархии АСУ ТП.   Контроллеры для систем автоматизации

    Слово "контроллер" произошло от английского "control" (управление), а не от русского "контроль" (учет, проверка). Контроллером в системах автоматизации называют устройство, выполняющее управление физическими процессами по записанному в него алгоритму, с использованием информации, получаемой от датчиков и выводимой в исполнительные устройства.

    Первые контроллеры появились на рубеже 60-х и 70-х годов в автомобильной промышленности, где использовались для автоматизации сборочных линий. В то время компьютеры стоили чрезвычайно дорого, поэтому контроллеры строились на жесткой логике (программировались аппаратно), что было гораздо дешевле. Однако перенастройка с одной технологической линии на другую требовала фактически изготовления нового контроллера. Поэтому появились контроллеры, алгоритм работы которых мог быть изменен несколько проще - с помощью схемы соединений реле. Такие контроллеры получили название программируемых логических контроллеров (ПЛК), и этот термин сохранился до настоящего времени. Везде ниже термины "контроллер" и "ПЛК" мы будем употреблять как синонимы.

    Немного позже появились ПЛК, которые можно было программировать на машинно-ориентированном языке, что было проще конструктивно, но требовало участия специально обученного программиста для внесения даже незначительных изменений в алгоритм управления. С этого момента началась борьба за упрощение процесса программирования ПЛК, которая привела сначала к созданию языков высокого уровня, затем - специализированных языков визуального программирования, похожих на язык релейной логики. В настоящее время этот процесс завершился созданием международного стандарта IEC (МЭК) 1131-3, который позже был переименован в МЭК 61131-3. Стандарт МЭК 61131-3 поддерживает пять языков технологического программирования, что исключает необходимость привлечения профессиональных программистов при построении систем с контроллерами, оставляя для них решение нестандартных задач.

    В связи с тем, что способ программирования является наиболее существенным классифицирующим признаком контроллера, понятие "ПЛК" все реже используется для обозначения управляющих контроллеров, которые не поддерживают технологические языки программирования.   Жесткие ограничения на стоимость и огромное разнообразие целей автоматизации привели к невозможности создания универсального ПЛК, как это случилось с офисными компьютерами. Область автоматизации выдвигает множество задач, в соответствии с которыми развивается и рынок, содержащий сотни непохожих друг на друга контроллеров, различающихся десятками параметров.

    Выбор оптимального для конкретной задачи контроллера основывается обычно на соответствии функциональных характеристик контроллера решаемой задаче при условии минимальной его стоимости. Учитываются также другие важные характеристики (температурный диапазон, надежность, бренд изготовителя, наличие разрешений Ростехнадзора, сертификатов и т. п.).

    Несмотря на огромное разнообразие контроллеров, в их развитии заметны следующие общие тенденции:
    • уменьшение габаритов;
    • расширение функциональных возможностей;
    • увеличение количества поддерживаемых интерфейсов и сетей;
    • использование идеологии "открытых систем";
    • использование языков программирования стандарта МЭК 61131-3;
    • снижение цены.
    Еще одной тенденцией является появление в контроллерах признаков компьютера (наличие мыши, клавиатуры, монитора, ОС Windows, возможности подключения жесткого диска), а в компьютерах - признаков контроллера (расширенный температурный диапазон, электронный диск, защита от пыли и влаги, крепление на DIN-рейку, наличие сторожевого таймера, увеличенное количество коммуникационных портов, использование ОС жесткого реального времени, функции самотестирования и диагностики, контроль целостности прикладной программы). Появились компьютеры в конструктивах для жестких условий эксплуатации. Аппаратные различия между компьютером и контроллером постепенно исчезают. Основными отличительными признаками контроллера остаются его назначение и наличие технологического языка программирования.

    [ http://bookasutp.ru/Chapter6_1.aspx]  
    Программируемый логический контроллер (ПЛК, PLC) – микропроцессорное устройство, предназначенное для управления технологическим процессом и другими сложными технологическими объектами.
    Принцип работы контроллера состоит в выполнение следующего цикла операций:

    1.    Сбор сигналов с датчиков;
    2.    Обработка сигналов согласно прикладному алгоритму управления;
    3.    Выдача управляющих воздействий на исполнительные устройства.

    В нормальном режиме работы контроллер непрерывно выполняет этот цикл с частотой от 50 раз в секунду. Время, затрачиваемое контроллером на выполнение полного цикла, часто называют временем (или периодом) сканирования; в большинстве современных ПЛК сканирование может настраиваться пользователем в диапазоне от 20 до 30000 миллисекунд. Для быстрых технологических процессов, где критична скорость реакции системы и требуется оперативное регулирование, время сканирования может составлять 20 мс, однако для большинства непрерывных процессов период 100 мс считается вполне приемлемым.

    Аппаратно контроллеры имеют модульную архитектуру и могут состоять из следующих компонентов:

    1.    Базовая панель ( Baseplate). Она служит для размещения на ней других модулей системы, устанавливаемых в специально отведенные позиции (слоты). Внутри базовой панели проходят две шины: одна - для подачи питания на электронные модули, другая – для пересылки данных и информационного обмена между модулями.

    2.    Модуль центрального вычислительного устройства ( СPU). Это мозг системы. Собственно в нем и происходит математическая обработка данных. Для связи с другими устройствами CPU часто оснащается сетевым интерфейсом, поддерживающим тот или иной коммуникационный стандарт.

    3.    Дополнительные коммуникационные модули. Необходимы для добавления сетевых интерфейсов, неподдерживаемых напрямую самим CPU. Коммуникационные модули существенно расширяют возможности ПЛК по сетевому взаимодействию. C их помощью к контроллеру подключают узлы распределенного ввода/вывода, интеллектуальные полевые приборы и станции операторского уровня.

    4.    Блок питания. Нужен для запитки системы от 220 V. Однако многие ПЛК не имеют стандартного блока питания и запитываются от внешнего.  
    4906
    Рис.1. Контроллер РСУ с коммуникациями Profibus и Ethernet.
     
    Иногда на базовую панель, помимо указанных выше, допускается устанавливать модули ввода/вывода полевых сигналов, которые образуют так называемый локальный ввод/вывод. Однако для большинства РСУ (DCS) характерно использование именно распределенного (удаленного) ввода/вывода.

    Отличительной особенностью контроллеров, применяемых в DCS, является возможность их резервирования. Резервирование нужно для повышения отказоустойчивости системы и заключается, как правило, в дублировании аппаратных модулей системы.
     
    4907
    Рис. 2. Резервированный контроллер с коммуникациями Profibus и Ethernet.
     
    Резервируемые модули работают параллельно и выполняют одни и те же функции. При этом один модуль находится в активном состоянии, а другой, являясь резервом, – в режиме “standby”. В случае отказа активного модуля, система автоматически переключается на резерв (это называется “горячий резерв”).

    Обратите внимание, контроллеры связаны шиной синхронизации, по которой они мониторят состояние друг друга. Это решение позволяет разнести резервированные модули на значительное расстояние друг от друга (например, расположить их в разных шкафах или даже аппаратных).

    Допустим, в данный момент активен левый контроллер, правый – находится в резерве. При этом, даже находясь в резерве, правый контроллер располагает всеми процессными данными и выполняет те же самые математические операции, что и левый. Контроллеры синхронизированы. Предположим, случается отказ левого контроллера, а именно модуля CPU. Управление автоматически передается резервному контроллеру, и теперь он становится главным. Здесь очень большое значение имеют время, которое система тратит на переключение на резерв (обычно меньше 0.5 с) и отсутствие возмущений (удара). Теперь система работает на резерве. Как только инженер заменит отказавший модуль CPU на исправный, система автоматически передаст ему управление и возвратится в исходное состояние.

    На рис. 3 изображен резервированный контроллер S7-400H производства Siemens. Данный контроллер входит в состав РСУ Simatic PCS7.
     
     
    4908
    Рис. 3. Резервированный контроллер S7-400H. Несколько другое техническое решение показано на примере резервированного контроллера FCP270 производства Foxboro (рис. 4). Данный контроллер входит в состав системы управления Foxboro IA Series.  
    4909
    Рис. 4. Резервированный контроллер FCP270.
    На базовой панели инсталлировано два процессорных модуля, работающих как резервированная пара, и коммуникационный модуль для сопряжения с оптическими сетями стандарта Ethernet. Взаимодействие между модулями происходит по внутренней шине (тоже резервированной), спрятанной непосредственно в базовую панель (ее не видно на рисунке).

    На рисунке ниже показан контроллер AC800M производства ABB (часть РСУ Extended Automation System 800xA).  
    4910
    Рис. 5. Контроллер AC800M.
     
    Это не резервированный вариант. Контроллер состоит из двух коммуникационных модулей, одного СPU и одного локального модуля ввода/вывода. Кроме этого, к контроллеру можно подключить до 64 внешних модулей ввода/вывода.

    При построении РСУ важно выбрать контроллер, удовлетворяющий всем техническим условиям и требованиям конкретного производства. Подбирая оптимальную конфигурацию, инженеры оперируют определенными техническими характеристиками промышленных контроллеров. Наиболее значимые перечислены ниже:

    1.    Возможность полного резервирования. Для задач, где отказоустойчивость критична (химия, нефтехимия, металлургия и т.д.), применение резервированных конфигураций вполне оправдано, тогда как для других менее ответственных производств резервирование зачастую оказывается избыточным решением.

    2.    Количество и тип поддерживаемых коммуникационных интерфейсов. Это определяет гибкость и масштабируемость системы управления в целом. Современные контроллеры способны поддерживать до 10 стандартов передачи данных одновременно, что во многом определяет их универсальность.

    3.    Быстродействие. Измеряется, как правило, в количестве выполняемых в секунду элементарных операций (до 200 млн.). Иногда быстродействие измеряется количеством обрабатываемых за секунду функциональных блоков (что такое функциональный блок – будет рассказано в следующей статье). Быстродействие зависит от типа центрального процессора (популярные производители - Intel, AMD, Motorola, Texas Instruments и т.д.)

    4.    Объем оперативной памяти. Во время работы контроллера в его оперативную память загружены запрограммированные пользователем алгоритмы автоматизированного управления, операционная система, библиотечные модули и т.д. Очевидно, чем больше оперативной памяти, тем сложнее и объемнее алгоритмы контроллер может выполнять, тем больше простора для творчества у программиста. Варьируется от 256 килобайт до 32 мегабайт.

    5.    Надежность. Наработка на отказ до 10-12 лет.

    6. Наличие специализированных средств разработки и поддержка различных языков программирования. Очевидно, что существование специализированный среды разработки прикладных программ – это стандарт для современного контроллера АСУ ТП. Для удобства программиста реализуется поддержка сразу нескольких языков как визуального, так и текстового (процедурного) программирования (FBD, SFC, IL, LAD, ST; об этом в следующей статье).

    7.    Возможность изменения алгоритмов управления на “лету” (online changes), т.е. без остановки работы контроллера. Для большинства контроллеров, применяемых в РСУ, поддержка online changes жизненно необходима, так как позволяет тонко настраивать систему или расширять ее функционал прямо на работающем производстве.

    8.    Возможность локального ввода/вывода. Как видно из рис. 4 контроллер Foxboro FCP270 рассчитан на работу только с удаленной подсистемой ввода/вывода, подключаемой к нему по оптическим каналам. Simatic S7-400 может спокойно работать как с локальными модулями ввода/вывода (свободные слоты на базовой панели есть), так и удаленными узлами.

    9.    Вес, габаритные размеры, вид монтажа (на DIN-рейку, на монтажную панель или в стойку 19”). Важно учитывать при проектировании и сборке системных шкафов.

    10.  Условия эксплуатации (температура, влажность, механические нагрузки). Большинство промышленных контроллеров могут работать в нечеловеческих условиях от 0 до 65 °С и при влажности до 95-98%.

    [ http://kazanets.narod.ru/PLC_PART1.htm]

    Тематики

    Синонимы

    EN

    DE

    • speicherprogrammierbare Steuerung, f

    FR

    Русско-английский словарь нормативно-технической терминологии > программируемый логический контроллер

  • 7 светодиодная лампа со встроенным устройством управления

    1. self-ballasted LED-lamp
    2. self-ballasted LED lamp

    3.39 светодиодная лампа со встроенным устройством управления (self-ballasted LED lamp): Устройство, которое не может быть разобрано без неизбежного повреждения, с цоколем, удовлетворяющим требованиям МЭК 60061-1, и включающее в себя светодиодный источник света и любые дополнительные элементы, необходимые для зажигания и стабильной работы источника света.

    Источник: ГОСТ Р 54814-2011: Светодиоды и светодиодные модули для общего освещения. Термины и определения оригинал документа

    3.1 светодиодная лампа со встроенным устройством управления (self-ballasted LED-lamp): Устройство, которое не может быть разобрано без неизбежного повреждения, с цоколем и источником света в виде светодиода, а также любыми дополнительными элементами, необходимыми для зажигания и стабильной работы источника света.

    Примечание - Цоколи - по МЭК 60061-1.

    Источник: ГОСТ Р МЭК 62560-2011: Лампы светодиодные со встроенным устройством управления для общего освещения на напряжения свыше 50 В. Требования безопасности оригинал документа

    3.1 светодиодная лампа со встроенным устройством управления (self-ballasted LED-lamp): Устройство, которое не может быть разобрано без неизбежного повреждения, с цоколем по МЭК 60061-1 и источником света в виде светодиода, а также с любыми дополнительными элементами, необходимыми для зажигания и стабильной работы источника света.

    Источник: ГОСТ Р 54815-2011: Лампы светодиодные со встроенным устройством управления для общего освещения на напряжения свыше 50 В. Эксплуатационные требования оригинал документа

    Русско-английский словарь нормативно-технической терминологии > светодиодная лампа со встроенным устройством управления

  • 8 модульный центр обработки данных (ЦОД)

    1. modular data center

     

    модульный центр обработки данных (ЦОД)
    -
    [Интент]

    Параллельные тексты EN-RU

    [ http://loosebolts.wordpress.com/2008/12/02/our-vision-for-generation-4-modular-data-centers-one-way-of-getting-it-just-right/]

    [ http://dcnt.ru/?p=9299#more-9299]

    Data Centers are a hot topic these days. No matter where you look, this once obscure aspect of infrastructure is getting a lot of attention. For years, there have been cost pressures on IT operations and this, when the need for modern capacity is greater than ever, has thrust data centers into the spotlight. Server and rack density continues to rise, placing DC professionals and businesses in tighter and tougher situations while they struggle to manage their IT environments. And now hyper-scale cloud infrastructure is taking traditional technologies to limits never explored before and focusing the imagination of the IT industry on new possibilities.

    В настоящее время центры обработки данных являются широко обсуждаемой темой. Куда ни посмотришь, этот некогда малоизвестный аспект инфраструктуры привлекает все больше внимания. Годами ИТ-отделы испытывали нехватку средств и это выдвинуло ЦОДы в центр внимания, в то время, когда необходимость в современных ЦОДах стала как никогда высокой. Плотность серверов и стоек продолжают расти, все больше усложняя ситуацию для специалистов в области охлаждения и организаций в их попытках управлять своими ИТ-средами. И теперь гипермасштабируемая облачная инфраструктура подвергает традиционные технологии невиданным ранее нагрузкам, и заставляет ИТ-индустрию искать новые возможности.

    At Microsoft, we have focused a lot of thought and research around how to best operate and maintain our global infrastructure and we want to share those learnings. While obviously there are some aspects that we keep to ourselves, we have shared how we operate facilities daily, our technologies and methodologies, and, most importantly, how we monitor and manage our facilities. Whether it’s speaking at industry events, inviting customers to our “Microsoft data center conferences” held in our data centers, or through other media like blogging and white papers, we believe sharing best practices is paramount and will drive the industry forward. So in that vein, we have some interesting news to share.

    В компании MicroSoft уделяют большое внимание изучению наилучших методов эксплуатации и технического обслуживания своей глобальной инфраструктуры и делятся результатами своих исследований. И хотя мы, конечно, не раскрываем некоторые аспекты своих исследований, мы делимся повседневным опытом эксплуатации дата-центров, своими технологиями и методологиями и, что важнее всего, методами контроля и управления своими объектами. Будь то доклады на отраслевых событиях, приглашение клиентов на наши конференции, которые посвящены центрам обработки данных MicroSoft, и проводятся в этих самых дата-центрах, или использование других средств, например, блоги и спецификации, мы уверены, что обмен передовым опытом имеет первостепенное значение и будет продвигать отрасль вперед.

    Today we are sharing our Generation 4 Modular Data Center plan. This is our vision and will be the foundation of our cloud data center infrastructure in the next five years. We believe it is one of the most revolutionary changes to happen to data centers in the last 30 years. Joining me, in writing this blog are Daniel Costello, my director of Data Center Research and Engineering and Christian Belady, principal power and cooling architect. I feel their voices will add significant value to driving understanding around the many benefits included in this new design paradigm.

    Сейчас мы хотим поделиться своим планом модульного дата-центра четвертого поколения. Это наше видение и оно будет основанием для инфраструктуры наших облачных дата-центров в ближайшие пять лет. Мы считаем, что это одно из самых революционных изменений в дата-центрах за последние 30 лет. Вместе со мной в написании этого блога участвовали Дэниел Костелло, директор по исследованиям и инжинирингу дата-центров, и Кристиан Белади, главный архитектор систем энергоснабжения и охлаждения. Мне кажется, что их авторитет придаст больше веса большому количеству преимуществ, включенных в эту новую парадигму проектирования.

    Our “Gen 4” modular data centers will take the flexibility of containerized servers—like those in our Chicago data center—and apply it across the entire facility. So what do we mean by modular? Think of it like “building blocks”, where the data center will be composed of modular units of prefabricated mechanical, electrical, security components, etc., in addition to containerized servers.

    Was there a key driver for the Generation 4 Data Center?

    Наши модульные дата-центры “Gen 4” будут гибкими с контейнерами серверов – как серверы в нашем чикагском дата-центре. И гибкость будет применяться ко всему ЦОД. Итак, что мы подразумеваем под модульностью? Мы думаем о ней как о “строительных блоках”, где дата-центр будет состоять из модульных блоков изготовленных в заводских условиях электрических систем и систем охлаждения, а также систем безопасности и т.п., в дополнение к контейнеризованным серверам.
    Был ли ключевой стимул для разработки дата-центра четвертого поколения?


    If we were to summarize the promise of our Gen 4 design into a single sentence it would be something like this: “A highly modular, scalable, efficient, just-in-time data center capacity program that can be delivered anywhere in the world very quickly and cheaply, while allowing for continued growth as required.” Sounds too good to be true, doesn’t it? Well, keep in mind that these concepts have been in initial development and prototyping for over a year and are based on cumulative knowledge of previous facility generations and the advances we have made since we began our investments in earnest on this new design.

    Если бы нам нужно было обобщить достоинства нашего проекта Gen 4 в одном предложении, это выглядело бы следующим образом: “Центр обработки данных с высоким уровнем модульности, расширяемости, и энергетической эффективности, а также возможностью постоянного расширения, в случае необходимости, который можно очень быстро и дешево развертывать в любом месте мира”. Звучит слишком хорошо для того чтобы быть правдой, не так ли? Ну, не забывайте, что эти концепции находились в процессе начальной разработки и создания опытного образца в течение более одного года и основываются на опыте, накопленном в ходе развития предыдущих поколений ЦОД, а также успехах, сделанных нами со времени, когда мы начали вкладывать серьезные средства в этот новый проект.

    One of the biggest challenges we’ve had at Microsoft is something Mike likes to call the ‘Goldilock’s Problem’. In a nutshell, the problem can be stated as:

    The worst thing we can do in delivering facilities for the business is not have enough capacity online, thus limiting the growth of our products and services.

    Одну из самых больших проблем, с которыми приходилось сталкиваться Майкрософт, Майк любит называть ‘Проблемой Лютика’. Вкратце, эту проблему можно выразить следующим образом:

    Самое худшее, что может быть при строительстве ЦОД для бизнеса, это не располагать достаточными производственными мощностями, и тем самым ограничивать рост наших продуктов и сервисов.

    The second worst thing we can do in delivering facilities for the business is to have too much capacity online.

    А вторым самым худшим моментом в этой сфере может слишком большое количество производственных мощностей.

    This has led to a focus on smart, intelligent growth for the business — refining our overall demand picture. It can’t be too hot. It can’t be too cold. It has to be ‘Just Right!’ The capital dollars of investment are too large to make without long term planning. As we struggled to master these interesting challenges, we had to ensure that our technological plan also included solutions for the business and operational challenges we faced as well.
    So let’s take a high level look at our Generation 4 design

    Это заставило нас сосредоточиваться на интеллектуальном росте для бизнеса — refining our overall demand picture. Это не должно быть слишком горячим. И это не должно быть слишком холодным. Это должно быть ‘как раз, таким как надо!’ Нельзя делать такие большие капиталовложения без долгосрочного планирования. Пока мы старались решить эти интересные проблемы, мы должны были гарантировать, что наш технологический план будет также включать решения для коммерческих и эксплуатационных проблем, с которыми нам также приходилось сталкиваться.
    Давайте рассмотрим наш проект дата-центра четвертого поколения

    Are you ready for some great visuals? Check out this video at Soapbox. Click here for the Microsoft 4th Gen Video.

    It’s a concept video that came out of my Data Center Research and Engineering team, under Daniel Costello, that will give you a view into what we think is the future.

    From a configuration, construct-ability and time to market perspective, our primary goals and objectives are to modularize the whole data center. Not just the server side (like the Chicago facility), but the mechanical and electrical space as well. This means using the same kind of parts in pre-manufactured modules, the ability to use containers, skids, or rack-based deployments and the ability to tailor the Redundancy and Reliability requirements to the application at a very specific level.


    Посмотрите это видео, перейдите по ссылке для просмотра видео о Microsoft 4th Gen:

    Это концептуальное видео, созданное командой отдела Data Center Research and Engineering, возглавляемого Дэниелом Костелло, которое даст вам наше представление о будущем.

    С точки зрения конфигурации, строительной технологичности и времени вывода на рынок, нашими главными целями и задачами агрегатирование всего дата-центра. Не только серверную часть, как дата-центр в Чикаго, но также системы охлаждения и электрические системы. Это означает применение деталей одного типа в сборных модулях, возможность использования контейнеров, салазок, или стоечных систем, а также возможность подстраивать требования избыточности и надежности для данного приложения на очень специфичном уровне.

    Our goals from a cost perspective were simple in concept but tough to deliver. First and foremost, we had to reduce the capital cost per critical Mega Watt by the class of use. Some applications can run with N-level redundancy in the infrastructure, others require a little more infrastructure for support. These different classes of infrastructure requirements meant that optimizing for all cost classes was paramount. At Microsoft, we are not a one trick pony and have many Online products and services (240+) that require different levels of operational support. We understand that and ensured that we addressed it in our design which will allow us to reduce capital costs by 20%-40% or greater depending upon class.


    Нашими целями в области затрат были концептуально простыми, но трудно реализуемыми. В первую очередь мы должны были снизить капитальные затраты в пересчете на один мегаватт, в зависимости от класса резервирования. Некоторые приложения могут вполне работать на базе инфраструктуры с резервированием на уровне N, то есть без резервирования, а для работы других приложений требуется больше инфраструктуры. Эти разные классы требований инфраструктуры подразумевали, что оптимизация всех классов затрат имеет преобладающее значение. В Майкрософт мы не ограничиваемся одним решением и располагаем большим количеством интерактивных продуктов и сервисов (240+), которым требуются разные уровни эксплуатационной поддержки. Мы понимаем это, и учитываем это в своем проекте, который позволит нам сокращать капитальные затраты на 20%-40% или более в зависимости от класса.

    For example, non-critical or geo redundant applications have low hardware reliability requirements on a location basis. As a result, Gen 4 can be configured to provide stripped down, low-cost infrastructure with little or no redundancy and/or temperature control. Let’s say an Online service team decides that due to the dramatically lower cost, they will simply use uncontrolled outside air with temperatures ranging 10-35 C and 20-80% RH. The reality is we are already spec-ing this for all of our servers today and working with server vendors to broaden that range even further as Gen 4 becomes a reality. For this class of infrastructure, we eliminate generators, chillers, UPSs, and possibly lower costs relative to traditional infrastructure.

    Например, некритичные или гео-избыточные системы имеют низкие требования к аппаратной надежности на основе местоположения. В результате этого, Gen 4 можно конфигурировать для упрощенной, недорогой инфраструктуры с низким уровнем (или вообще без резервирования) резервирования и / или температурного контроля. Скажем, команда интерактивного сервиса решает, что, в связи с намного меньшими затратами, они будут просто использовать некондиционированный наружный воздух с температурой 10-35°C и влажностью 20-80% RH. В реальности мы уже сегодня предъявляем эти требования к своим серверам и работаем с поставщиками серверов над еще большим расширением диапазона температур, так как наш модуль и подход Gen 4 становится реальностью. Для подобного класса инфраструктуры мы удаляем генераторы, чиллеры, ИБП, и, возможно, будем предлагать более низкие затраты, по сравнению с традиционной инфраструктурой.

    Applications that demand higher level of redundancy or temperature control will use configurations of Gen 4 to meet those needs, however, they will also cost more (but still less than traditional data centers). We see this cost difference driving engineering behavioral change in that we predict more applications will drive towards Geo redundancy to lower costs.

    Системы, которым требуется более высокий уровень резервирования или температурного контроля, будут использовать конфигурации Gen 4, отвечающие этим требованиям, однако, они будут также стоить больше. Но все равно они будут стоить меньше, чем традиционные дата-центры. Мы предвидим, что эти различия в затратах будут вызывать изменения в методах инжиниринга, и по нашим прогнозам, это будет выражаться в переходе все большего числа систем на гео-избыточность и меньшие затраты.

    Another cool thing about Gen 4 is that it allows us to deploy capacity when our demand dictates it. Once finalized, we will no longer need to make large upfront investments. Imagine driving capital costs more closely in-line with actual demand, thus greatly reducing time-to-market and adding the capacity Online inherent in the design. Also reduced is the amount of construction labor required to put these “building blocks” together. Since the entire platform requires pre-manufacture of its core components, on-site construction costs are lowered. This allows us to maximize our return on invested capital.

    Еще одно достоинство Gen 4 состоит в том, что он позволяет нам разворачивать дополнительные мощности, когда нам это необходимо. Как только мы закончим проект, нам больше не нужно будет делать большие начальные капиталовложения. Представьте себе возможность более точного согласования капитальных затрат с реальными требованиями, и тем самым значительного снижения времени вывода на рынок и интерактивного добавления мощностей, предусматриваемого проектом. Также снижен объем строительных работ, требуемых для сборки этих “строительных блоков”. Поскольку вся платформа требует предварительного изготовления ее базовых компонентов, затраты на сборку также снижены. Это позволит нам увеличить до максимума окупаемость своих капиталовложений.
    Мы все подвергаем сомнению

    In our design process, we questioned everything. You may notice there is no roof and some might be uncomfortable with this. We explored the need of one and throughout our research we got some surprising (positive) results that showed one wasn’t needed.

    В своем процессе проектирования мы все подвергаем сомнению. Вы, наверное, обратили внимание на отсутствие крыши, и некоторым специалистам это могло не понравиться. Мы изучили необходимость в крыше и в ходе своих исследований получили удивительные результаты, которые показали, что крыша не нужна.
    Серийное производство дата центров


    In short, we are striving to bring Henry Ford’s Model T factory to the data center. http://en.wikipedia.org/wiki/Henry_Ford#Model_T. Gen 4 will move data centers from a custom design and build model to a commoditized manufacturing approach. We intend to have our components built in factories and then assemble them in one location (the data center site) very quickly. Think about how a computer, car or plane is built today. Components are manufactured by different companies all over the world to a predefined spec and then integrated in one location based on demands and feature requirements. And just like Henry Ford’s assembly line drove the cost of building and the time-to-market down dramatically for the automobile industry, we expect Gen 4 to do the same for data centers. Everything will be pre-manufactured and assembled on the pad.

    Мы хотим применить модель автомобильной фабрики Генри Форда к дата-центру. Проект Gen 4 будет способствовать переходу от модели специализированного проектирования и строительства к товарно-производственному, серийному подходу. Мы намерены изготавливать свои компоненты на заводах, а затем очень быстро собирать их в одном месте, в месте строительства дата-центра. Подумайте о том, как сегодня изготавливается компьютер, автомобиль или самолет. Компоненты изготавливаются по заранее определенным спецификациям разными компаниями во всем мире, затем собираются в одном месте на основе спроса и требуемых характеристик. И точно так же как сборочный конвейер Генри Форда привел к значительному уменьшению затрат на производство и времени вывода на рынок в автомобильной промышленности, мы надеемся, что Gen 4 сделает то же самое для дата-центров. Все будет предварительно изготавливаться и собираться на месте.
    Невероятно энергоэффективный ЦОД


    And did we mention that this platform will be, overall, incredibly energy efficient? From a total energy perspective not only will we have remarkable PUE values, but the total cost of energy going into the facility will be greatly reduced as well. How much energy goes into making concrete? Will we need as much of it? How much energy goes into the fuel of the construction vehicles? This will also be greatly reduced! A key driver is our goal to achieve an average PUE at or below 1.125 by 2012 across our data centers. More than that, we are on a mission to reduce the overall amount of copper and water used in these facilities. We believe these will be the next areas of industry attention when and if the energy problem is solved. So we are asking today…“how can we build a data center with less building”?

    А мы упоминали, что эта платформа будет, в общем, невероятно энергоэффективной? С точки зрения общей энергии, мы получим не только поразительные значения PUE, но общая стоимость энергии, затраченной на объект будет также значительно снижена. Сколько энергии идет на производство бетона? Нам нужно будет столько энергии? Сколько энергии идет на питание инженерных строительных машин? Это тоже будет значительно снижено! Главным стимулом является достижение среднего PUE не больше 1.125 для всех наших дата-центров к 2012 году. Более того, у нас есть задача сокращения общего количества меди и воды в дата-центрах. Мы думаем, что эти задачи станут следующей заботой отрасли после того как будет решена энергетическая проблема. Итак, сегодня мы спрашиваем себя…“как можно построить дата-центр с меньшим объемом строительных работ”?
    Строительство дата центров без чиллеров

    We have talked openly and publicly about building chiller-less data centers and running our facilities using aggressive outside economization. Our sincerest hope is that Gen 4 will completely eliminate the use of water. Today’s data centers use massive amounts of water and we see water as the next scarce resource and have decided to take a proactive stance on making water conservation part of our plan.

    Мы открыто и публично говорили о строительстве дата-центров без чиллеров и активном использовании в наших центрах обработки данных технологий свободного охлаждения или фрикулинга. Мы искренне надеемся, что Gen 4 позволит полностью отказаться от использования воды. Современные дата-центры расходуют большие объемы воды и так как мы считаем воду следующим редким ресурсом, мы решили принять упреждающие меры и включить экономию воды в свой план.

    By sharing this with the industry, we believe everyone can benefit from our methodology. While this concept and approach may be intimidating (or downright frightening) to some in the industry, disclosure ultimately is better for all of us.

    Делясь этим опытом с отраслью, мы считаем, что каждый сможет извлечь выгоду из нашей методологией. Хотя эта концепция и подход могут показаться пугающими (или откровенно страшными) для некоторых отраслевых специалистов, раскрывая свои планы мы, в конечном счете, делаем лучше для всех нас.

    Gen 4 design (even more than just containers), could reduce the ‘religious’ debates in our industry. With the central spine infrastructure in place, containers or pre-manufactured server halls can be either AC or DC, air-side economized or water-side economized, or not economized at all (though the sanity of that might be questioned). Gen 4 will allow us to decommission, repair and upgrade quickly because everything is modular. No longer will we be governed by the initial decisions made when constructing the facility. We will have almost unlimited use and re-use of the facility and site. We will also be able to use power in an ultra-fluid fashion moving load from critical to non-critical as use and capacity requirements dictate.

    Проект Gen 4 позволит уменьшить ‘религиозные’ споры в нашей отрасли. Располагая базовой инфраструктурой, контейнеры или сборные серверные могут оборудоваться системами переменного или постоянного тока, воздушными или водяными экономайзерами, или вообще не использовать экономайзеры. Хотя можно подвергать сомнению разумность такого решения. Gen 4 позволит нам быстро выполнять работы по выводу из эксплуатации, ремонту и модернизации, поскольку все будет модульным. Мы больше не будем руководствоваться начальными решениями, принятыми во время строительства дата-центра. Мы сможем использовать этот дата-центр и инфраструктуру в течение почти неограниченного периода времени. Мы также сможем применять сверхгибкие методы использования электрической энергии, переводя оборудование в режимы критической или некритической нагрузки в соответствии с требуемой мощностью.
    Gen 4 – это стандартная платформа

    Finally, we believe this is a big game changer. Gen 4 will provide a standard platform that our industry can innovate around. For example, all modules in our Gen 4 will have common interfaces clearly defined by our specs and any vendor that meets these specifications will be able to plug into our infrastructure. Whether you are a computer vendor, UPS vendor, generator vendor, etc., you will be able to plug and play into our infrastructure. This means we can also source anyone, anywhere on the globe to minimize costs and maximize performance. We want to help motivate the industry to further innovate—with innovations from which everyone can reap the benefits.

    Наконец, мы уверены, что это будет фактором, который значительно изменит ситуацию. Gen 4 будет представлять собой стандартную платформу, которую отрасль сможет обновлять. Например, все модули в нашем Gen 4 будут иметь общепринятые интерфейсы, четко определяемые нашими спецификациями, и оборудование любого поставщика, которое отвечает этим спецификациям можно будет включать в нашу инфраструктуру. Независимо от того производите вы компьютеры, ИБП, генераторы и т.п., вы сможете включать свое оборудование нашу инфраструктуру. Это означает, что мы также сможем обеспечивать всех, в любом месте земного шара, тем самым сводя до минимума затраты и максимальной увеличивая производительность. Мы хотим создать в отрасли мотивацию для дальнейших инноваций – инноваций, от которых каждый сможет получать выгоду.
    Главные характеристики дата-центров четвертого поколения Gen4

    To summarize, the key characteristics of our Generation 4 data centers are:

    Scalable
    Plug-and-play spine infrastructure
    Factory pre-assembled: Pre-Assembled Containers (PACs) & Pre-Manufactured Buildings (PMBs)
    Rapid deployment
    De-mountable
    Reduce TTM
    Reduced construction
    Sustainable measures

    Ниже приведены главные характеристики дата-центров четвертого поколения Gen 4:

    Расширяемость;
    Готовая к использованию базовая инфраструктура;
    Изготовление в заводских условиях: сборные контейнеры (PAC) и сборные здания (PMB);
    Быстрота развертывания;
    Возможность демонтажа;
    Снижение времени вывода на рынок (TTM);
    Сокращение сроков строительства;
    Экологичность;

    Map applications to DC Class

    We hope you join us on this incredible journey of change and innovation!

    Long hours of research and engineering time are invested into this process. There are still some long days and nights ahead, but the vision is clear. Rest assured however, that we as refine Generation 4, the team will soon be looking to Generation 5 (even if it is a bit farther out). There is always room to get better.


    Использование систем электропитания постоянного тока.

    Мы надеемся, что вы присоединитесь к нам в этом невероятном путешествии по миру изменений и инноваций!

    На этот проект уже потрачены долгие часы исследований и проектирования. И еще предстоит потратить много дней и ночей, но мы имеем четкое представление о конечной цели. Однако будьте уверены, что как только мы доведем до конца проект модульного дата-центра четвертого поколения, мы вскоре начнем думать о проекте дата-центра пятого поколения. Всегда есть возможность для улучшений.

    So if you happen to come across Goldilocks in the forest, and you are curious as to why she is smiling you will know that she feels very good about getting very close to ‘JUST RIGHT’.

    Generations of Evolution – some background on our data center designs

    Так что, если вы встретите в лесу девочку по имени Лютик, и вам станет любопытно, почему она улыбается, вы будете знать, что она очень довольна тем, что очень близко подошла к ‘ОПИМАЛЬНОМУ РЕШЕНИЮ’.
    Поколения эволюции – история развития наших дата-центров

    We thought you might be interested in understanding what happened in the first three generations of our data center designs. When Ray Ozzie wrote his Software plus Services memo it posed a very interesting challenge to us. The winds of change were at ‘tornado’ proportions. That “plus Services” tag had some significant (and unstated) challenges inherent to it. The first was that Microsoft was going to evolve even further into an operations company. While we had been running large scale Internet services since 1995, this development lead us to an entirely new level. Additionally, these “services” would span across both Internet and Enterprise businesses. To those of you who have to operate “stuff”, you know that these are two very different worlds in operational models and challenges. It also meant that, to achieve the same level of reliability and performance required our infrastructure was going to have to scale globally and in a significant way.

    Мы подумали, что может быть вам будет интересно узнать историю первых трех поколений наших центров обработки данных. Когда Рэй Оззи написал свою памятную записку Software plus Services, он поставил перед нами очень интересную задачу. Ветра перемен двигались с ураганной скоростью. Это окончание “plus Services” скрывало в себе какие-то значительные и неопределенные задачи. Первая заключалась в том, что Майкрософт собиралась в еще большей степени стать операционной компанией. Несмотря на то, что мы управляли большими интернет-сервисами, начиная с 1995 г., эта разработка подняла нас на абсолютно новый уровень. Кроме того, эти “сервисы” охватывали интернет-компании и корпорации. Тем, кому приходится всем этим управлять, известно, что есть два очень разных мира в области операционных моделей и задач. Это также означало, что для достижения такого же уровня надежности и производительности требовалось, чтобы наша инфраструктура располагала значительными возможностями расширения в глобальных масштабах.

    It was that intense atmosphere of change that we first started re-evaluating data center technology and processes in general and our ideas began to reach farther than what was accepted by the industry at large. This was the era of Generation 1. As we look at where most of the world’s data centers are today (and where our facilities were), it represented all the known learning and design requirements that had been in place since IBM built the first purpose-built computer room. These facilities focused more around uptime, reliability and redundancy. Big infrastructure was held accountable to solve all potential environmental shortfalls. This is where the majority of infrastructure in the industry still is today.

    Именно в этой атмосфере серьезных изменений мы впервые начали переоценку ЦОД-технологий и технологий вообще, и наши идеи начали выходить за пределы общепринятых в отрасли представлений. Это была эпоха ЦОД первого поколения. Когда мы узнали, где сегодня располагается большинство мировых дата-центров и где находятся наши предприятия, это представляло весь опыт и навыки проектирования, накопленные со времени, когда IBM построила первую серверную. В этих ЦОД больше внимания уделялось бесперебойной работе, надежности и резервированию. Большая инфраструктура была призвана решать все потенциальные экологические проблемы. Сегодня большая часть инфраструктуры все еще находится на этом этапе своего развития.

    We soon realized that traditional data centers were quickly becoming outdated. They were not keeping up with the demands of what was happening technologically and environmentally. That’s when we kicked off our Generation 2 design. Gen 2 facilities started taking into account sustainability, energy efficiency, and really looking at the total cost of energy and operations.

    Очень быстро мы поняли, что стандартные дата-центры очень быстро становятся устаревшими. Они не поспевали за темпами изменений технологических и экологических требований. Именно тогда мы стали разрабатывать ЦОД второго поколения. В этих дата-центрах Gen 2 стали принимать во внимание такие факторы как устойчивое развитие, энергетическая эффективность, а также общие энергетические и эксплуатационные.

    No longer did we view data centers just for the upfront capital costs, but we took a hard look at the facility over the course of its life. Our Quincy, Washington and San Antonio, Texas facilities are examples of our Gen 2 data centers where we explored and implemented new ways to lessen the impact on the environment. These facilities are considered two leading industry examples, based on their energy efficiency and ability to run and operate at new levels of scale and performance by leveraging clean hydro power (Quincy) and recycled waste water (San Antonio) to cool the facility during peak cooling months.

    Мы больше не рассматривали дата-центры только с точки зрения начальных капитальных затрат, а внимательно следили за работой ЦОД на протяжении его срока службы. Наши объекты в Куинси, Вашингтоне, и Сан-Антонио, Техас, являются образцами наших ЦОД второго поколения, в которых мы изучали и применяли на практике новые способы снижения воздействия на окружающую среду. Эти объекты считаются двумя ведущими отраслевыми примерами, исходя из их энергетической эффективности и способности работать на новых уровнях производительности, основанных на использовании чистой энергии воды (Куинси) и рециклирования отработанной воды (Сан-Антонио) для охлаждения объекта в самых жарких месяцах.

    As we were delivering our Gen 2 facilities into steel and concrete, our Generation 3 facilities were rapidly driving the evolution of the program. The key concepts for our Gen 3 design are increased modularity and greater concentration around energy efficiency and scale. The Gen 3 facility will be best represented by the Chicago, Illinois facility currently under construction. This facility will seem very foreign compared to the traditional data center concepts most of the industry is comfortable with. In fact, if you ever sit around in our container hanger in Chicago it will look incredibly different from a traditional raised-floor data center. We anticipate this modularization will drive huge efficiencies in terms of cost and operations for our business. We will also introduce significant changes in the environmental systems used to run our facilities. These concepts and processes (where applicable) will help us gain even greater efficiencies in our existing footprint, allowing us to further maximize infrastructure investments.

    Так как наши ЦОД второго поколения строились из стали и бетона, наши центры обработки данных третьего поколения начали их быстро вытеснять. Главными концептуальными особенностями ЦОД третьего поколения Gen 3 являются повышенная модульность и большее внимание к энергетической эффективности и масштабированию. Дата-центры третьего поколения лучше всего представлены объектом, который в настоящее время строится в Чикаго, Иллинойс. Этот ЦОД будет выглядеть очень необычно, по сравнению с общепринятыми в отрасли представлениями о дата-центре. Действительно, если вам когда-либо удастся побывать в нашем контейнерном ангаре в Чикаго, он покажется вам совершенно непохожим на обычный дата-центр с фальшполом. Мы предполагаем, что этот модульный подход будет способствовать значительному повышению эффективности нашего бизнеса в отношении затрат и операций. Мы также внесем существенные изменения в климатические системы, используемые в наших ЦОД. Эти концепции и технологии, если применимо, позволят нам добиться еще большей эффективности наших существующих дата-центров, и тем самым еще больше увеличивать капиталовложения в инфраструктуру.

    This is definitely a journey, not a destination industry. In fact, our Generation 4 design has been under heavy engineering for viability and cost for over a year. While the demand of our commercial growth required us to make investments as we grew, we treated each step in the learning as a process for further innovation in data centers. The design for our future Gen 4 facilities enabled us to make visionary advances that addressed the challenges of building, running, and operating facilities all in one concerted effort.

    Это определенно путешествие, а не конечный пункт назначения. На самом деле, наш проект ЦОД четвертого поколения подвергался серьезным испытаниям на жизнеспособность и затраты на протяжении целого года. Хотя необходимость в коммерческом росте требовала от нас постоянных капиталовложений, мы рассматривали каждый этап своего развития как шаг к будущим инновациям в области дата-центров. Проект наших будущих ЦОД четвертого поколения Gen 4 позволил нам делать фантастические предположения, которые касались задач строительства, управления и эксплуатации объектов как единого упорядоченного процесса.


    Тематики

    Синонимы

    EN

    Русско-английский словарь нормативно-технической терминологии > модульный центр обработки данных (ЦОД)

  • 9 промышленная сеть верхнего уровня

    1. terminal bus

     

    промышленная сеть верхнего уровня
    коммуникационная сеть верхнего уровня
    сеть операторского уровня
    Сеть верхнего уровня АСУ ТП.
    Сеть передачи данных между операторскими станциями, контроллерами и серверами.
    [ http://kazanets.narod.ru/NT_PART2.htm]

    В данной статье речь пойдет о коммуникационных сетях верхнего уровня, входящих в состав АСУ ТП. Их еще называют сетями операторского уровня, ссылаясь на трехуровневую модель распределенных систем управления.

    Сети верхнего уровня служат для передачи данных между контроллерами, серверами и операторскими рабочими станциями. Иногда в состав таких сетей входят дополнительные узлы: центральный сервер архива, сервер промышленных приложений, инженерная станция и т.д. Но это уже опции.

    Какие сети используются на верхнем уровне?
    В отличие от стандартов полевых шин, здесь особого разнообразия нет. Фактически, большинство сетей верхнего уровня, применяемых в современных АСУ ТП, базируется на стандарте Ethernet (IEEE 802.3) или на его более быстрых вариантах Fast Ethernet и Gigabit Ethernet. При этом, как правило, используется полный стек коммуникационных протоколов TCP/IP. В этом плане сети операторского уровня очень похожи на обычные ЛВС, применяемые в офисных приложениях. Широкое промышленное применение сетей Ethernet обусловлено следующими очевидными моментами:

    1.    Промышленные сети верхнего уровня объединяют множество операторских станций и серверов, которые в большинстве случаев представляют собой персональные компьютеры. Стандарт Ethernet отлично подходит для организации подобных ЛВС; для этого необходимо снабдить каждый компьютер лишь сетевым адаптером (NIC, network interface card). Коммуникационные модули Ethernet для промышленных контроллеров просты в изготовлении и легки в конфигурировании. Стоит отметить, что многие современные контроллеры уже имеют встроенные интерфейсы для подключения к сетям Ethernet.

    2.   На рынке существует большой выбор недорого коммуникационного оборудования для сетей Ethernet, в том числе специально адаптированного для промышленного применения.

    3.   Сети Ethernet обладают большой скоростью передачи данных. Например, стандарт Gigabit Ethernet позволяет передавать данные со скоростью до 1 Gb в секунду при использовании витой пары категории 5. Как будет понятно дальше, большая пропускная способность сети становится чрезвычайно важным моментом для промышленных приложений.

    4.   Очень частым требованием является возможность состыковки сети АСУ ТП с локальной сетью завода (или предприятия). Как правило, существующая ЛВС завода базируется на стандарте Ethernet. Использование единого сетевого стандарта позволяет упростить интеграцию АСУ ТП в общую сеть предприятия, что становится особенно ощутимым при реализации и развертывании систем верхнего уровня типа MES (Мanufacturing Еxecution System).

    Однако у промышленных сетей верхнего уровня есть своя специфика, обусловленная условиями промышленного применения. Типичными требованиями, предъявляемыми к таким сетям, являются:

    1.    Большая пропускная способность и скорость передачи данных. Объем трафика напрямую зависит от многих факторов: количества архивируемых и визуализируемых технологических параметров, количества серверов и операторских станций, используемых прикладных приложений и т.д.

    В отличие от полевых сетей жесткого требования детерминированности здесь нет: строго говоря, неважно, сколько времени займет передача сообщения от одного узла к другому – 100 мс или 700 мс (естественно, это не важно, пока находится в разумных пределах). Главное, чтобы сеть в целом могла справляться с общим объемом трафика за определенное время. Наиболее интенсивный трафик идет по участкам сети, соединяющим серверы и операторские станции (клиенты). Это связано с тем, что на операторской станции технологическая информация обновляется в среднем раз в секунду, причем передаваемых технологических параметров может быть несколько тысяч. Но и тут нет жестких временных ограничений: оператор не заметит, если информация будет обновляться, скажем, каждые полторы секунды вместо положенной одной. В то же время если контроллер (с циклом сканирования в 100 мс) столкнется с 500-милисекундной задержкой поступления новых данных от датчика, это может привести к некорректной отработке алгоритмов управления.

    2.    Отказоустойчивость. Достигается, как правило, путем резервирования коммуникационного оборудования и линий связи по схеме 2*N так, что в случае выхода из строя коммутатора или обрыва канала, система управления способна в кратчайшие сроки (не более 1-3 с) локализовать место отказа, выполнить автоматическую перестройку топологии и перенаправить трафик на резервные маршруты. Далее мы более подробно остановимся на схемах обеспечения резервирования.

    3.    Соответствие сетевого оборудования промышленным условиям эксплуатации. Под этим подразумеваются такие немаловажные технические меры, как: защита сетевого оборудования от пыли и влаги; расширенный температурный диапазон эксплуатации; увеличенный цикл жизни; возможность удобного монтажа на DIN-рейку; низковольтное питание с возможностью резервирования; прочные и износостойкие разъемы и коннекторы. По функционалу промышленное сетевое оборудование практически не отличается от офисных аналогов, однако, ввиду специального исполнения, стоит несколько дороже.
     

    4916
    Рис. 1. Промышленные коммутаторы SCALANCE X200 производства Siemens (слева) и LM8TX от Phoenix Contact (справа): монтаж на DIN-рейку; питание от 24 VDC (у SCALANCE X200 возможность резервирования питания); поддержка резервированных сетевых топологий.

    Говоря о промышленных сетях, построенных на базе технологии Ethernet, часто используют термин Industrial Ethernet, намекая тем самым на их промышленное предназначение. Сейчас ведутся обширные дискуссии о выделении Industrial Ethernet в отдельный промышленный стандарт, однако на данный момент Industrial Ethernet – это лишь перечень технических рекомендации по организации сетей в производственных условиях, и является, строго говоря, неформализованным дополнением к спецификации физического уровня стандарта Ethernet.

    Есть и другая точка зрения на то, что такое Industrial Ethernet. Дело в том, что в последнее время разработано множество коммуникационных протоколов, базирующихся на стандарте Ethernet и оптимизированных для передачи критичных ко времени данных. Такие протоколы условно называют протоколами реального времени, имея в виду, что с их помощью можно организовать обмен данными между распределенными приложениями, которые критичны ко времени выполнения и требуют четкой временной синхронизации. Конечная цель – добиться относительной детерминированности при передаче данных. В качестве примера Industrial Ethernet можно привести:

    1.    Profinet;
    2.    EtherCAT;
    3.    Ethernet Powerlink;
    4.    Ether/IP.

    Эти протоколы в различной степени модифицируют стандартный стек TCP/IP, добавляя в него новые алгоритмы сетевого обмена, диагностические функции, методы самокорректировки и функции синхронизации, оставляя при этом канальный и физический уровни Ethernet неизменными. Это позволяет использовать новые протоколы передачи данных в существующих сетях Ethernet с использованием стандартного коммуникационного оборудования.

    Теперь рассмотрим конкретные конфигурации сетей операторского уровня.
    На рисунке 2 показана самая простая – базовая конфигурация. Отказ любого коммутатора или обрыв канала связи ( link) ведет к нарушению целостности всей системы. Единичная точка отказа изображена на рисунке красным крестиком.

    4917
    Рис. 2. Нерезервированная конфигурация сети верхнего уровня

    Такая простая конфигурация подходит лишь для систем управления, внедряемых на некритичных участках производства (водоподготовка для каких-нибудь водяных контуров или, например, приемка молока на молочном заводе). Для более ответственных технологических участков такое решение явно неудовлетворительно.

    На рисунке 3 показана отказоустойчивая конфигурация с полным резервированием. Каждый канал связи и сетевой компонент резервируется. Обратите внимание, сколько отказов переносит система прежде, чем теряется коммуникация с одной рабочей станцией оператора. Но даже это не выводит систему из строя, так как остается в действии вторая, страхующая рабочая станция.

    4918
    Рис. 3. Полностью резервированная конфигурация сети верхнего уровня

    Резервирование неизбежно ведет к возникновению петлевидных участков сети – замкнутых маршрутов. Стандарт Ethernet, строго говоря, не допускает петлевидных топологий, так как это может привести к зацикливанию пакетов особенно при широковещательной рассылке. Но и из этой ситуации есть выход. Современные коммутаторы, как правило, поддерживают дополнительный прокол Spanning Tree Protocol (STP, IEEE 802.1d), который позволяет создавать петлевидные маршруты в сетях Ethernet. Постоянно анализируя конфигурацию сети, STP автоматически выстраивает древовидную топологию, переводя избыточные коммуникационные линии в резерв. В случае нарушения целостности построенной таким образом сети (обрыв связи, например), STP в считанные секунды включает в работу необходимые резервные линии, восстанавливая древовидную структуры сети. Примечательно то, что этот протокол не требует первичной настройки и работает автоматически. Есть и более мощная разновидность данного протокола Rapid Spanning Tree Protocol (RSTP, IEEE 802.1w), позволяющая снизить время перестройки сети вплоть до нескольких миллисекунд. Протоколы STP и RSTP позволяют создавать произвольное количество избыточных линий связи и являются обязательным функционалом для промышленных коммутаторов, применяемых в резервированных сетях.

    На рисунке 4 изображена резервированная конфигурация сети верхнего уровня, содержащая оптоволоконное кольцо для организации связи между контроллерами и серверами. Иногда это кольцо дублируется, что придает системе дополнительную отказоустойчивость.

    4919
    Рис. 4. Резервированная конфигурация сети на основе оптоволоконного кольца

    Мы рассмотрели наиболее типичные схемы построения сетей, применяемых в промышленности. Вместе с тем следует заметить, что универсальных конфигураций сетей попросту не существует: в каждом конкретном случае проектировщик вырабатывает подходящее техническое решение исходя из поставленной задачи и условий применения.

    [ http://kazanets.narod.ru/NT_PART2.htm]

    Тематики

    Синонимы

    EN

    Русско-английский словарь нормативно-технической терминологии > промышленная сеть верхнего уровня

См. также в других словарях:

  • дополнительные модули — [Интент] Тематики ПЛК (программируемые логические контроллеры) EN related accessories …   Справочник технического переводчика

  • ГОСТ Р 54814-2011: Светодиоды и светодиодные модули для общего освещения. Термины и определения — Терминология ГОСТ Р 54814 2011: Светодиоды и светодиодные модули для общего освещения. Термины и определения оригинал документа: 3.5 бин (bin): Ограниченный диапазон параметров светодиода, используемый для подразделения множества светодиодов на… …   Словарь-справочник терминов нормативно-технической документации

  • HostCMS — Тип Система управления контентом Разработчик ООО «Хостмэйк» Операционная система Кроссплатформенное программное обеспечение Последняя версия 6 Лицензия Проприетарное программное обеспечение Сайт …   Википедия

  • массив электропитания — [Интент] Для индивидуальных пользователей единственным устройством, реально нуждающимся в такой защите, является компьютер. В корпоративной среде, кроме ПК, в обеспечении качественного электропитания нуждаются серверы, коммуникационное… …   Справочник технического переводчика

  • Call of Duty: Black Ops — Эта статья или раздел нуждается в переработке. Пожалуйста, улучшите статью в соответствии с правилами написания статей …   Википедия

  • E3.series — Эта статья или раздел нуждается в переработке. Пожалуйста, улучшите статью в соответствии с правилами написания статей …   Википедия

  • Алее Архив — STOR M (Алее Архив) …   Википедия

  • MapWindow GIS — 4.5 в Windows Vista Тип Географическая информационная система …   Википедия

  • Intel 80186 — <<   Intel 80186   >> Центральный процессор Микропроцессор Intel 80186 Производство: с 1982 по 2007 …   Википедия

  • DocsVision — Эта статья должна быть полностью переписана. На странице обсуждения могут быть пояснения. Система DocsVision  система автоматизации документооборота и бизнес процессов предприятий россий …   Википедия

  • Возможности браузера Opera — Содержание 1 Отображение страниц 1.1 Масштаб страницы …   Википедия

Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»